NVIDIA FY26 Q4 财报 — Compute equals revenues
历史背景:NVIDIA 这一代最新的完整年度财报。本季度单季营收 680 亿美元(同比 +73%),全年数据中心业务 1940 亿美元(同比 +68%),自 ChatGPT 发布以来的三年里,NVIDIA 的数据中心业务增长了大约 13 倍。黄仁勋 在这场会议上给出了本周期最重要的一句话——"compute equals revenues"(算力即收入)——并把 agentic AI 的"ChatGPT 时刻"正式宣布为已经到来。他还公布了对 Anthropic 的 100 亿美元战略投资、和 Groq 的整合、以及 Vera Rubin 已经开始向客户送样。
Prepared Remarks(黄仁勋开场陈述)
(注:本次电话会议的开场 prepared remarks 由 CFO 讲述。黄仁勋的集中陈述出现在 CFO 之后的 partnerships 段落中。)
我们最近和 OpenAI 一起庆祝了 GPT-5.3 Codex 的发布——它在 Grace Blackwell 和 NVLink 72 系统上训练和推理。5.3 Codex 可以胜任需要研究、使用工具、复杂执行的长时间任务。这个模型在 NVIDIA 内部已经被广泛部署——我们的工程师爱死它了。我们正在和 OpenAI 谈一项合作协议,我相信我们已经接近达成。 OpenAI 是一家百年一遇的公司,我们非常高兴能够从他们成立的第一天就开始合作。
Meta Superintelligence Labs 正在以闪电般的速度扩张。上周我们宣布 Meta 将部署数百万张 Blackwell 和 Rubin GPU、NVIDIA CPU 和 Spectrum X 以太网——用于训练和推理。
本季度我们宣布了与 Anthropic 的合作关系,以及向他们投资的 100 亿美元。Anthropic 将在 Grace Blackwell 和 Vera Rubin 系统上训练和推理。Anthropic 的 Claude Cowork 代理平台是一场革命,它为企业级 AI 的采用打开了闸门。在 Claude Cowork 和 OpenAI 之间,算力需求正在飙升——agentic AI 的 ChatGPT 时刻已经到来。
我们和 Anthropic、Meta、OpenAI、xAI 的合作共同织出了一张覆盖每一朵云的网。我们有能力从头到尾构建整套 AI 工厂 基础设施,也可以在云上支持这些合作伙伴——我们独一无二地处于一个位置,可以在训练、推理、AI 工厂的扩展上与所有前沿模型构建者合作。
最后,我们最近和 Groq 签订了一项非许可协议,获取他们的低延迟推理技术,并迎来一支出色的工程师团队。就像我们当年对待 Mellanox 一样,我们将用 Groq 的创新扩展 NVIDIA 的架构——把 AI 基础设施的性能和价值推到一个新的水平。
Q&A 精选
算力即收入
分析师问:前五大 CSP 今年 CapEx 接近 7000 亿美元。明年还能再涨吗?如果涨不上去,NVIDIA 还能在这个盘子里继续增长吗?
黄仁勋:我对他们的现金流继续增长充满信心。原因很简单:我们现在已经看到 agentic AI 的拐点,代理在全世界的企业里变得真正有用。你正看到惊人的算力需求。
在这个 AI 的新世界里——compute is revenues(算力即收入)。没有算力,就没有办法生成 token。没有 token,就没有办法增长收入。所以在这个 AI 的新世界里,算力 = 收入。
CUDA 与推理:为什么架构就是一切
分析师问:当 AI 投资越来越多地流向推理工作负载时,CUDA 平台 的重要性在哪里?
黄仁勋:整个栈从 TensorRT-LLM 开始——这是我们最高性能的推理栈。要把它在 NVL72 上优化到极致,要求我们发现并发明全新的并行化算法,坐落在 CUDA 平台 之上,来分布推理工作负载。
这些 agentic 系统会不断派生出更多 agent,和团队协作,产出的 token 数量正在指数级增长。所以我们需要以更高的速度推理。而当你以更高速度推理、每一个 token 都被商品化的时候,它直接就是收入。
算力=收入——这是我们客户的等式。数据中心每一瓦的吞吐,直接就是收入。所以每一家 CSP、每一个超大规模厂商现在都理解这件事:CapEx 转化为算力;算力配上正确的架构,最大化收入——compute equals revenues。没有今天在算力上的投资,就不会有未来的收入增长。架构极其重要——它已经超越了"战略"层面,直接影响他们的盈利。选择性能每瓦最好的架构,就是一切。
空间数据中心
分析师问:你的一些客户在考虑空间数据中心,你觉得可行性和经济性如何?
黄仁勋:今天的经济性不好,但会慢慢改善。太空的物理规律和地面完全不一样:能量很丰富——太阳能板可以做得很大,空间也不缺——但太空是冷的,没有气流,散热只能靠传导,辐射器要做得非常大。液冷因为重量和压力问题基本没戏。
所以在太空里我们用的散热办法跟地面不一样。不过确实有很多竞争性方案想在太空里做。MPS 已经有世界上第一颗在轨 GPU——Hopper 已经在太空里了。
GPU 在太空里最好的用途之一是成像——用光学加 AI 做极高分辨率的成像、做不同角度的重投影、做超分、做降噪,并且能在巨大的尺度上、极快地完成。要把 PB 级、PB 级的原始成像数据传回地面处理是很难的——不如直接在太空里处理,然后只有遇到有意思的东西才把数据发回地面。所以 AI 在太空里会有非常有意思的应用。
客户多样性与生态系统
分析师问:hyperscaler 过 50%,但增长主要由其他客户带动——非 hyperscaler 是不是增长更快?
黄仁勋:我们最顶层的前五家 CSP / hyperscaler 约占 50%。除此之外,我们还有 AI 模型构建者、各种云上模型提供商,以及现在遍布全球的极其多元的客户群。这种生态的多样性是我们最大的强项之一。
CUDA 平台 的灵活性,加上 NVIDIA GPU 里 Tensor Core 的性能,让我们既能拥有专用处理器的性能,又有通用平台的灵活性——我们可以同时解决语言问题、计算机视觉问题、机器人问题、生物学问题、物理问题,以及几乎所有 AI 和计算算法。
另一件真正关键的事情是我们和 OpenAI、Anthropic、xAI、Meta 的合作——今天 Hugging Face 上有 150 万个 AI 模型,全部都跑在 NVIDIA CUDA 平台 上。你如果把所有开源模型加起来,它大概是世界上第二大的模型集合(OpenAI 第一)。NVIDIA 能够运行所有这些模型,让我们的平台非常 fungible、非常好用、非常安全地可被投资。
Vera CPU 为什么存在
分析师问:你们把 Vera CPU 做成独立产品了。这在架构演进里扮演什么角色?
黄仁勋:GTC 上我会讲得更细。但高层面上讲,我们对 CPU 做了和世界上其他 CPU 根本不同的架构决策。Grace CPU 只支持 LPDDR5,它被设计成专注于极高数据吞吐能力。
为什么?因为我们关心的大多数计算问题都是数据驱动的,AI 就是其中之一。单线程性能对带宽的比值是爆表的。
在 AI 的完整流水线里——从数据处理到预训练到后训练——你需要大量 CPU。AI 正在学会使用工具,而这些工具很多都跑在纯 CPU 环境或 CPU+GPU 环境里。Vera CPU 就是为 post-training 设计的优秀 CPU。
当你把算法加速到极限的时候——就像我们做的那样——Amdahl 定律 告诉你,你需要非常非常快的单线程 CPU。这就是为什么我们把 Grace CPU 设计得在单线程性能上极其出色。而 Vera CPU 又比它好得多得多。
3-4 万亿美元数据中心 CapEx:凭什么
分析师问:你此前提过到 2030 年数据中心 CapEx 会到 3~4 万亿美元。哪些应用是拐点?你对这个体量还有信心吗?
黄仁勋:让我们从几个角度来推理这件事。
第一,第一性原理。未来的软件是 token 驱动的。每个人都在谈 tokenomics、都在谈数据中心生成 token、都在谈推理就是在生成 token。NVIDIA NVLink 72 让我们的 token 生成性能——以每单位能量计——比上一代高 50 倍。token 生成是未来所有软件和所有计算的中心。
过去的计算机用途,对算力的需求只是未来的一小部分。AI 已经到来,AI 不会退回去,AI 只会越来越好。过去世界每年投大约 3000~4000 亿美元在经典计算上。现在 AI 来了——AI 需要的算力是旧计算方式的 1000 倍以上。所以只要我们相信这件事有价值(我们一会儿会证明这点),世界就会继续投资去生产这些 token。世界需要的 token 生成能力远远超过 7000 亿美元。
第二,这个判断的底层理由是:软件的本质变了。过去的软件是预先录制的——我们把所有东西都提前编译、提前写好、提前录好。但现在一切都是实时生成的。当它是实时生成的时候,可以把用户、情境、意图、查询全部纳入上下文——用这些来生成输出。这个新软件我们称为 agentic AI,它所需要的算力比预先录制的软件大得多。就像计算机的算力远远大于 DVD 播放机,AI 需要的算力远远大于过去的方式。
第三,为什么这是可持续的?从产业角度:所有公司归根到底都是由软件驱动的,云公司是由软件驱动的。如果新软件需要生成 token、而 token 被商品化,那么他们的数据中心建设直接驱动他们的收入——"compute drives revenues"。我想他们都理解这一点,而世界也越来越清楚这一点。
第四,AI 本身要给世界带来的收益,最终必须变成收入。而我们正眼看着 agentic AI 走向拐点——字面意义上,这一切发生在过去的两三个月里。行业内部我们看到得更早一些,大概已经六个月了。但现在整个世界都意识到 agentic AI 的拐点来了。这些 agent 非常聪明,它们在解决真正的问题。
编程现在被 agentic 系统全面加持。NVIDIA 内部所有写代码的人都在重度使用 Claude Code 或 OpenAI Codex(经常两个都用,再加上 Cursor)。你可以看到他们的收入在飙升——以 Anthropic 为例,他们的收入一年涨了 10 倍。他们严重被产能约束,因为需求实在太旺,token 需求爆表,token 生成速率在指数级增长。OpenAI 也是一样。
所以他们上线的算力越多,收入增长得越快。这就是我为什么说——"inference is revenues, compute equals revenues"——在这个 AI 的新世界里。某种程度上这就是为什么我们说这是一场新的工业革命:新的工厂,新的基础设施正在被建起来,这种新的计算方式不会退回去。
我们现在看到的这一波是 agentic AI 的拐点,再下一波是 物理 AI——我们把这些 agentic 系统带进物理应用,比如制造业、比如机器人。这是一个巨大的机会。
相关卡片
Blackwell · Vera Rubin · agentic AI · 物理 AI · CUDA 平台 · Extreme Co-Design · AI 工厂 · Token 经济 · Amdahl 定律 · Anthropic · OpenAI · Groq · Meta